L'IA de Google veut aider les journalistes à écrire leurs articles sans les remplacer


L'intelligence artificielle se glisse dans presque toutes les activités humaines et l'émergence des IA génératives ouvre de nouvelles perspectives en matière de création et d'assistance à la création.

Google fait partie des entreprises développant activement des IA tout en cherchant à leur fournir un cadre d'usage. Après avoir dévoilé son intelligence artificielle Bard à usage général, la firme cherche à affiner son offre vers des secteurs particuliers.

Elle a développé une intelligence artificielle Genesis qui vise à fournir des outils pour assister les journalistes dans leur tâche d'écriture d'articles. Déjà en test chez le New York Times, le Washington Post ou le Wall Street Journal, l'initiative vise à "fournir des outils d'IA qui aideront les journalistes à faire leur travail"...sans remplacer pour autant (ou au début) les humains.

Trouver de la légitimité sans prendre le contrôle

L'intelligence artificielle est déjà utilisée chez Google ou Microsoft pour fournir des assistances à la rédaction d'e-mails ou de textes et une extension à l'activité journalistique semble donc logique.

Shéma homme et intelligence artificielle face à face

Pour autant, la capacité des IA génératives à produire des fake news ou à souffrir d'hallucinations (des affirmations ou la création de références qui n'existent pas) constituent une barrière naturelle à leur usage massif dans la création de contenus.

C'est sans compter également avec la collecte massive de données sur le Web sans droits ni autorisations qui a déjà commencé à alimenter des plaintes et des recherches de monétisation des flux

Produire de l'actualité et des contenus, activité humaine ou IA ?

Google tente de déminer le terrain en affirmant que Genesis sera avant tout un assistant à l'écriture et à la rédaction en automatisant certaines tâches mais que l'IA n'est pas destinée à remplacer les fonctions des journalistes.

Toute la difficulté sera d'assurer la pertinence et la fiabilité des éléments produits par l'intelligence artificielle. Or, elle est encore loin d'être acquise, minant la confiance dans les réponses des IA aux requêtes, avec des délires artificiels risquant de s'ajouter aux erreurs factuelles humaines.

La grande crainte reste de ne plus savoir distinguer entre réalité et contenus créés de toutes pièces. Plusieurs grands acteurs de l'IA viennent d'ailleurs de s'entendre pour tenter d'imposer un watermark aux productions issues de l'intelligence artificielle générative.

Google n'est pas la seule option sur le marché. OpenAI a déjà négocié un accord avec l'Associated Press (AP) pour laisser son robot conversationnel ChatGPT accéder à ses archives depuis 1985 et affiner la qualité de ses réponses tout en laissant l'agence de presse accéder à ses techologies IA, avec en outre des financements pour faciliter l'intégration de l'IA dans les outils de production journalistiques.

Un enjeu de crédibilité se joue ici et une série de faux pas dans la production d'articles pourrait jeter l'opprobre sur la technologie mais aussi sur les médias l'utilisant.



Source
Catégorie article Technologies

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.